联合学习(FL)被认为是分布式机器学习(ML)最有前途的解决方案之一。在当前的大多数文献中,FL已被研究用于监督的ML任务,其中边缘设备收集标记的数据。然而,在许多应用中,假设存在跨设备标记的数据是不切实际的。为此,我们开发了一种新颖的方法论,合作联合无监督的对比度学习(CF-CL),用于使用未标记的数据集的跨越边缘设备的FL。 CF-CL采用本地设备合作,其中通过设备到设备(D2D)通信在设备之间进行数据交换,以避免由非独立且相同分布式(非I.I.I.I.D。)本地数据集引起的本地模型偏差。 CF-CL引入了针对无监督的FL设置量身定制的推动力智能数据共享机制,在该设置中,每个设备将其本地数据点的子集推向其邻居,作为保留数据点,并从其邻居中提取一组数据点,并通过其进行采样概率重要性抽样技术。我们证明,CF-CL导致(i)跨设备的无监督的潜在空间对齐,(ii)更快的全局收敛,允许较低的全局模型聚合; (iii)在极端非i.i.d中有效。跨设备的数据设置。
translated by 谷歌翻译